這些突破推動了深度學習領域的快速發展,使其在多個領域取得顯著的進展。
Hinton的DBN(Deep Belief Network):在2006年,Hinton和他的團隊提出了DBN,使用限制玻爾茲曼機(RBM)作為其基礎,通過逐層預訓練和反向傳播算法,克服了梯度消失問題,標志著深度學習的開端。
ReLU激活函數:在2011年,Xavier Glorot和Yoshua Bengio提出了ReLU(修正線性單元)作為激活函數,其導數為常數,解決了梯度消失問題,推動了神經網絡的發展。
Dropout算法:2012年,Hinton提出了Dropout算法,通過隨機關閉隱藏層中一定比例的神經元,以防止過擬合。
GPU硬件:計算硬件也得到高速發展,GPU的計算能力顯著提升,使得深度學習模型的訓練速度大幅度提高。
ImageNet數據集:大規模的標記數據集如ImageNet等的出現,幫助深度學習模型的訓練和技術發展。
深度殘差學習:在2015年,何凱明等人提出了深度殘差學習,使用殘差塊構建深度神經網絡,大大降低了模型的訓練難度,將圖像識別錯誤率降至人類水平。
語音識別:深度神經網絡在語音識別領域也有重大突破,例如通過DNN-HMM模型和RNN-LSTM模型實現高準確率的語音識別。